Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

Desde que comienza hasta que termina el día,  quienes tenemos dispositivos digitales estamos rodeados de algoritmos que manejan -muchas veces, sin tener conciencia de ello- buena parte de nuestras elecciones, decisiones, formas de pensar, sentir y hacer. Apps, redes, chatbots, a partir de un clik  nos proponen lo que se denomina “contenidos” (información digitalizada) e itinerarios y modos de  recorrerlos e interpretarlos.  

Sin ir más lejos, y para apelar a una muestra ilustrativa,  en cuanto ingresamos a WhatsApp, la pantalla de lectura se inicia con una directiva: “preguntar a Meta AI o buscar”  y abre opciones de búsqueda: “quiero  buscar algo”; “quiero escribir un mensaje a un cliente”; “necesito una ayuda para hacer una lluvia de ideas”; “necesito un consejo sobre crianza”;  “necesito buscar algo”; “quiero escribir un poema”…. y la lista parece infinita. En el algoritmo se combinan recursos discursivos   para predeterminar elecciones e incitar a hacer lo que el algoritmo ha definido de antemano. Mientras el primer enunciado “Preguntar a Meta” se abre con un infinitivo despersonalizado (con la modalidad que se emplea en las directivas o en las órdenes), en cuanto se clickean las alternativas, el algoritmo utiliza verbos personalizados en primera persona. El que enuncia es un “yo” que representa al usuario. El algoritmo se apropia de ese yo del usuario,  ocupa su  lugar, se confunde y se hace pasar por el: “necesito”, “quiero”. Uno podría preguntarse “con qué derecho habla por mí, se mete en mi vida” , pero la interrogación acerca del por qué  y toda posible impugnación queda suspendida por la multiplicación  de propuestas, la sobreestimulación. El diseño del modelo es deliberado al respecto. Los verbos que utiliza confunden lo que propone el algoritmo con los deseos o necesidades del usuario. Si el usuario se deja llevar y explicita su deseo, replicando el enunciado construido por el algoritmo: “quiero escribir un poema”, el algoritmo le pregunta el tema.  Antes de cumplir el deseo, emplea estrategias de adulación para mantener conectado (y enlazado) al interlocutor. Si, por ejemplo, el tema es  “el exilio”, el modelo escribe: “el exilio es un tema profundo y emotivo”.  Si bien la frase se refiere al tópico planteado, presupone una valoración del sujeto ponderando su elección. El algoritmo no siente ni valora, pero “actúa” para generar un puente de empatía. En segundos, Meta (como la lámpara de Aladino)  escribe el poema, con un discurso prototípico que se sustenta, no en la creatividad original -de la que carece la IA- sino en la reiteración de patrones que ha encontrado en la base de datos: frases hechas combinadas con rima. Pero el direccionamiento del algoritmo no termina allí. Sin dejar un lapso de respiro (que le permita al interlocutor una pausa para pensar en lo que está o no haciendo) el algoritmo apela a la primera persona del plural “nosotros”  para reforzar la simulación de un diálogo  empático  y propone -como si fuera ya casi un amigo: “qué te parece si exploramos juntos el tema? ¿Hay algún aspecto específico del tema que te gustaría abordar en tu poema?” El algoritmo no solo emplea recursos para construirse como otro humano que “interactúa” subjetivamente con el usuario, sino que prefigura sus intereses y expectativas y se asimila o funde (confunde) con él, al adjudicarle el poema (“tu poema”) en el que el usuario no ha tenido ninguna intervención. No hay interacción, sino conectividad direccionada por una IA que, a través de múltiples e invisibles estrategias, suspenden o anulan la libertad de autoría y pensamiento. Si el usuario se deja llevar por la supuesta interacción, progresivamente  se transforma en un bot del algoritmo que lo va envolviendo como una boa hasta ingerirlo. En el mejor de los casos, sólo alcanzará a ver un  sombrero (como en “El principito”) que tapa todo lo que pasa debajo de éste.

A través de estas operaciones, los modelos -como el analizado-  se van tragando a los sujetos bajo la ficción de ser usuarios. El algoritmo define prácticamente todo. Hace creer que son los humanos los que eligen pero las alternativas, las decisiones, las acciones, los interrogantes, las inquietudes están predeterminadas de antemano para promover la delegación y la pérdida de autonomía, de libertad, de autopercepción crítica de roles, de autodeterminación. El humano pasa de ser usuario a ser usado.

El algoritmo no es autosuficiente, ni tiene capacidad de pensamiento, creatividad, decisión autónoma. Quienes las tienen son las empresas, los dueños de los algoritmos, que permanentemente venden publicidad acerca de las “capacidades humanas” de sus diseños e intentan convencer sobre su eficiencia, su eficacia  y  valor -en la era de la IA, de los cambios acelerados, de la competencia-  de la delegación “de tareas”. Desde esta perspectiva, el argumento es inobjetable. Pero cuando la empresa y el algoritmo te convence de hacer por vos un trabajo de investigación, una tesis, un ensayo (“Hipnocracia”), una creación artística, ya no se trata de tareas sino de delegación  de potencialidades cognitivas. Si caemos en su argucia, nos vamos transformando   en “nadarritmos” en manos de los algoritmos: nuestras manos se convierten en el instrumento para  encarcelar  nuestros ritmos y pulsos independientes de vida hasta convertir nuestros cerebros en máquinas operativas para los fines que han sido diseñados estos modelos de IA. El que hace algo y marca el ritmo es el algoritmo.

Y  pueden convencernos -sin que uno se de cuenta- porque en cada clik que hacemos nos están estudiando: buscando patrones que puedan encasillar nuestros intereses, nuestras preferencias, nuestras elecciones, nuestros rechazos. Nos  trocan en insumo, en dato trazable para el beneficio de los gigantes tecnológicos y de su poder de dominación en la era del mercado de datos.

J. Cwaik, en un libro de reciente publicación (El algoritmo,2025) reelabora la noción de algoritmo tomando en cuenta tanto lo que comporta como proceso operativo como su  dimensión socio simbólica. Apela,  en este último aspecto, a la referencia de C. O´ Neill “Armas de destrucción matemática” (2016) que define al algoritmo como “serie de reglas opacas que procesan datos de manera de amplificar sesgos y consolidar desigualdades”.  Cwaik,  tomando en cuenta la doble faz de los algoritmos -la evidente y la imperceptible-, propone la siguiente conceptualización:  “Secuencia finita de pasos lógicos que permiten resolver un problema o realizar una tarea específica. Es la base matemática y operativa de todo sistema computacional. Pero también, en el contexto digital actual, es el sistema invisible que toma decisiones por nosotros”.  “Es un mediador invisible entre el dato y nuestra percepción de la realidad”.

Es hora de retomar decisiones autónomas y consensuadas. ¿Vamos a ser usuarios de la tecnología en provecho del desarrollo social, cultural, cognitivo de la humanidad y como garantía de derechos, en condiciones de justicia y equidad? Para eso es necesario, no sólo el acceso a los dispositivos tecnológicos y a la IA ( del que está privado una parte sustancial de la humanidad)  sino la toma de conciencia de sus aportes presentes y potenciales  así como de los invisibles procesos de manipulación que los gigantes tecnológicos ponen en juego en el diseño de sus algoritmos.

Sin temor a ser reiterativos, insistimos desde estas columnas: la regulación de la IA es un avance crucial pero lo que se requiere es una transformación radical de las políticas y las prácticas educativas que tiendan puentes para una real soberanía y emancipación cognitiva y sociocultural en la que la IA esté al servicio de la inteligencia del homo sapiens y no a la inversa. Sólo así podremos avanzar en una justicia socio digital.

En un mundo donde los algoritmos nos seducen a convertirnos en “nadarritmos”, autómatas sin voluntad atrapados en sus patrones, nuestra verdadera autodeterminación reside en trascender esa condición. No basta con rechazar el prompt que se nos impone aún más en la era agentica que se avecina; debemos aspirar a ser el Agente Editor de nuestra propia historia. Esto implica no ser el que simplemente ejecuta una Action tras un Thought ajeno, sino el que forja su propio Manual de Estilo. Con lucidez, este agente decodifica cada Observation que le ofrece el mundo y, con pleno albedrío, traza el siguiente capítulo de su destino